AI资讯新闻榜单内容搜索- Transform

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索:  Transform
无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25

无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25

无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25

Diffusion Transformer模型模型通过token粒度的缓存方法,实现了图像和视频生成模型上无需训练的两倍以上的加速。

来自主题: AI技术研报
5999 点击    2025-02-28 15:06
不要自回归!扩散模型作者创业,首个商业级扩散LLM来了,编程秒出结果

不要自回归!扩散模型作者创业,首个商业级扩散LLM来了,编程秒出结果

不要自回归!扩散模型作者创业,首个商业级扩散LLM来了,编程秒出结果

当前的 AI 领域,可以说 Transformer 与扩散模型是最热门的模型架构。也因此,有不少研究团队都在尝试将这两种架构融合到一起,以两者之长探索新一代的模型范式,比如我们之前报道过的 LLaDA。不过,之前这些成果都还只是研究探索,并未真正实现大规模应用。

来自主题: AI技术研报
9316 点击    2025-02-27 14:40
千帧长视频时代到来!MIT全新扩散算法让任意模型突破时长极限

千帧长视频时代到来!MIT全新扩散算法让任意模型突破时长极限

千帧长视频时代到来!MIT全新扩散算法让任意模型突破时长极限

进入到 2025 年,视频生成(尤其是基于扩散模型)领域还在不断地「推陈出新」,各种文生视频、图生视频模型展现出了酷炫的效果。其中,长视频生成一直是现有视频扩散的痛点。

来自主题: AI技术研报
6013 点击    2025-02-26 13:39
ICLR 2025|南洋理工大学AvatarGO,探索4D人与物体交互生成新方法

ICLR 2025|南洋理工大学AvatarGO,探索4D人与物体交互生成新方法

ICLR 2025|南洋理工大学AvatarGO,探索4D人与物体交互生成新方法

近年来,随着扩散模型和 Transformer 技术的快速发展,4D 人体 - 物体交互(HOI)的生成与驱动效果取得了显著进展。然而,当前主流方法仍依赖 SMPL [1] 这一人体先验模型来生成动作。

来自主题: AI技术研报
8199 点击    2025-02-23 16:39
YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO 系列模型的结构创新一直围绕 CNN 展开,而让 transformer 具有统治优势的 attention 机制一直不是 YOLO 系列网络结构改进的重点。这主要的原因是 attention 机制的速度无法满足 YOLO 实时性的要求。

来自主题: AI技术研报
8064 点击    2025-02-22 14:14
Mamba作者带斯坦福同学、导师创业,Cartesia获2700万美元种子轮融资

Mamba作者带斯坦福同学、导师创业,Cartesia获2700万美元种子轮融资

Mamba作者带斯坦福同学、导师创业,Cartesia获2700万美元种子轮融资

Mamba 这种状态空间模型(SSM)被认为是 Transformer 架构的有力挑战者。近段时间,相关研究成果接连不断。而就在不久前,Mamba 作者 Albert Gu 与 Karan Goel、Chris Ré、Arjun Desai、Brandon Yang 一起共同创立的 Cartesia 获得 2700 万美元种子轮融资。

来自主题: AI技术研报
7146 点击    2024-12-13 17:21
智能体零样本解决未见过人类设计环境!全靠这个开放式物理RL环境空间

智能体零样本解决未见过人类设计环境!全靠这个开放式物理RL环境空间

智能体零样本解决未见过人类设计环境!全靠这个开放式物理RL环境空间

在机器学习领域,开发一个在未见过领域表现出色的通用智能体一直是长期目标之一。一种观点认为,在大量离线文本和视频数据上训练的大型 transformer 最终可以实现这一目标。

来自主题: AI技术研报
5150 点击    2024-11-24 19:59
Make U-Nets Great Again!北大&华为提出扩散架构U-DiT,六分之一算力即可超越DiT

Make U-Nets Great Again!北大&华为提出扩散架构U-DiT,六分之一算力即可超越DiT

Make U-Nets Great Again!北大&华为提出扩散架构U-DiT,六分之一算力即可超越DiT

Sora 的发布让广大研究者及开发者深刻认识到基于 Transformer 架构扩散模型的巨大潜力。作为这一类的代表性工作,DiT 模型抛弃了传统的 U-Net 扩散架构,转而使用直筒型去噪模型。鉴于直筒型 DiT 在隐空间生成任务上效果出众,后续的一些工作如 PixArt、SD3 等等也都不约而同地使用了直筒型架构。

来自主题: AI技术研报
2930 点击    2024-11-15 15:09